Small change to remove difference between Xen and mainline deactivate_mm.
authorvh249@arcadians.cl.cam.ac.uk <vh249@arcadians.cl.cam.ac.uk>
Mon, 15 Aug 2005 12:26:20 +0000 (12:26 +0000)
committervh249@arcadians.cl.cam.ac.uk <vh249@arcadians.cl.cam.ac.uk>
Mon, 15 Aug 2005 12:26:20 +0000 (12:26 +0000)
While there, cleanup prepare_arch_switch as well.  This generates
identical code.

Signed-off-by: Chris Wright <chrisw@osdl.org>
linux-2.6-xen-sparse/include/asm-xen/asm-i386/mmu_context.h

index f54bb7bdd77fd8f76b083668fc4d88d73c035d16..477eccf6f541610ac7f32841bea23955b8d1ad7c 100644 (file)
@@ -34,10 +34,10 @@ static inline void __prepare_arch_switch(void)
         * are always kernel segments while inside the kernel. Must
         * happen before reload of cr3/ldt (i.e., not in __switch_to).
         */
-       __asm__ __volatile__ ( "mov %%fs,%0 ; mov %%gs,%1"
+       asm volatile ( "mov %%fs,%0 ; mov %%gs,%1"
                : "=m" (*(int *)&current->thread.fs),
                  "=m" (*(int *)&current->thread.gs));
-       __asm__ __volatile__ ( "mov %0,%%fs ; mov %0,%%gs"
+       asm volatile ( "mov %0,%%fs ; mov %0,%%gs"
                : : "r" (0) );
 }
 
@@ -100,7 +100,7 @@ static inline void switch_mm(struct mm_struct *prev,
 }
 
 #define deactivate_mm(tsk, mm) \
-       asm("mov %0,%%fs ; mov %0,%%gs": :"r" (0))
+       asm("movl %0,%%fs ; movl %0,%%gs": :"r" (0))
 
 #define activate_mm(prev, next) \
        switch_mm((prev),(next),NULL)